• 数据中心按照算力可以分为三类:云数据中心、智算中心和超算中心★★■◆■■。云数据中心面向众多应用场景和应用层级扩张;智算中心 以AI专用芯片为计算算力底座◆★★■,以促进AI产业化和智能化为目标◆■★◆◆,面向AI典型应用场景;超算中心主要支持科学计算和工程计算 ,主要由国家科技部布局建设。
• 根据Trendforce 测算■◆,2023 年全球 AI 服务器出货量逾120.8万台■■■■,同比增长超过37■■■★◆.7%★■◆★★。这家机构预测,2024 年全球AI服务器整机出货量将达167.2万台,同比增长38.4%。台积电在Q1法说会上表示,AI需求的增长将以50%的复合增长率持续至2028年◆◆★,AI服务器需求增长也有望以较高速度持续至2028年。
• 海外企业应用生成式AI意愿强烈★◆。OpenAI首席运营官Brad Lightcap预测2024年是AI应用元年,目前已有超过60万人注册使用 ChatGPT企业版★■■◆★。6月11日■◆★■■,OpenAI在官网宣布与苹果达成技术合作★◆★,将 ChatGPT 深度集成在苹果产品矩阵中■■,包括最新的iOS、iPadOS和macOS。苹果将AI大语言模型集成到iPhone■◆■★◆■、iPad◆★★◆、Mac等设备中■★,算力从云端向终端转移趋势出现◆■★◆◆。
• 服务器随场景需求经历通用服务器-云服务器-边缘服务器-AI服务器四种模式,AI服务器采用GPU增强其并行计算能力 。CPU+GPU是AI服务器的核心部件★★◆◆★■。机柜级解决方案有望成为未来 AI 服务器出货主流形式之一。
• 按照用途区分◆◆■★,AI服务器分为训练和推理两大类别。训练用服务器对存储空间、带宽和算力的要求较高,主要采用 8-GPU 设计;推理用服务器对算力■★■◆★、存储和带宽的要求相对较低,取决于业务场景,可以采用 GPU、NPU、CPU 等不同芯片承担推理任务,可以采用PCLe接口的AI加速器实现推理任务。
• 国内数据中心建设较全球起步晚,目前处于云中心深化阶段,向智能算力中心转型■■★★◆■,总体处于成长期★★。
• 国际数据公司(IDC)与浪潮信息联合发布报告显示,2023年■■★■,中国人工智能服务器市场规模将达91亿美元,同比 增长82.5%◆★◆;智能算力规模预计达到414◆★◆■★.1EFLOPS(每秒百亿亿次浮点运算),同比增长59.3%★◆■★■,2022年到2027年, 年复合增长率达到33.9%★◆■。